Skip to main content
DevSecCon_2025_Logo_-_light_hor_year_xfx16j

Sichere Wege ins KI-native Zeitalter

Virtuelles Event am 22. Oktober 2025

Künstliche Intelligenz verändert die Entwicklung von Software ebenso grundlegend wie ihre Bereitstellung. Gleiches gilt aber auch dafür, wie sie abgesichert werden muss. Genau deshalb sollten auch Sie beim allerersten Summit zu AI Security dabei sein, bei dem wir gemeinsam mit der weltweiten Community ausloten, wie sich die Innovationen von KI ohne Kompromisse bei der Sicherheit erschließen lassen.

Jetzt registrieren!

Mit inspirierenden Keynotes, Demos am Objekt und spannender Security-Forschung der Community nimmt Sie die DevSecCon25 mit auf eine Reise rund um die Welt wegweisender KI-Security. Ganz gleich, ob Sie angesichts komplexer MCP-Server, allgegenwärtiger Agents in Produktionsumgebungen oder des Vormarschs von Vibe-Coding um die Sicherheit besorgt sind – auf dieser Konferenz erfahren Sie, wie Sie all dies bewältigen.

Einige unserer Speaker

Freuen Sie sich auf führende KI- und Security-Experten aus aller Welt. Eine Liste aller Speaker finden Sie weiter unten.

Headshot of Zack Kass

Zack Kass

Global AI Advisor and Former Head of Go-To-Market, OpenAI

Headshot of Zack Proser

Zack Proser

Developers Education, WorkOS

Headshot of Nnenna Ndukwe

Nnenna Ndukwe

Principal Developer Advocate, Qodo

Headshot of Guy Podjarny

Guy Podjarny

Founder and CEO, Tessl

Wegen Agents kommen, für Entertainment bleiben

Konferenz kann jeder. Neben Keynotes, die inspirieren, und Hands-on Sessions, die hängenbleiben, haben wir auch Livemusik und DJ-Sets, Dev-Challenges und Games für Sie am Start. Natürlich alles mit der Developer-DNA, für die wir bekannt sind, wie unsere Talk-Tracks und die vollständige Agenda unten zeigen.

Mainstage

Auf der Mainstage erwarten Sie Branchen-Leader aus KI und Cybersecurity, deren Keynotes Sie durch zukunftsweisende Insights und Thought Leadership zum Denken anregen und Ihnen eine Vision zur Zukunft sicherer KI vermitteln werden.

AI Demos Track

Laptop nicht vergessen, hier wird es interaktiv: In unseren Demos zu sicherer Entwicklung mit KI erwerben Sie Skills, die sich auf Anhieb in der Praxis anwenden lassen.

AI Security Track

Bei Talks am Puls neu aufkommender Security-Herausforderungen im Zeitalter der KI lernen Sie innovative Konzepte kennen, mit denen Sie gestützte Anwendungen besser schützen, Einsicht in KI-Modelle gewinnen und Agents an sämtlichen Punkten des SDLC besser absichern.

Snyk Innovation Track

Bei diesem Track, der so dynamisch ist wie die Innovationen von Snyk, erleben Sie unsere neuesten Entwicklungen aus erster Hand, mit Live-Produktdemos, wichtigen Ankündigungen und spannenden Kunden-Stories.

Agenda

Von hochkarätigen Keynotes bis hin zu bahnbrechenden Breakouts – hier finden Sie die komplette Agenda (Zeitangaben in Eastern Time).

10:00 AM
Quo vadis Development: Security-Agilität auf Augenhöhe mit KI-gestützter Entwicklung


Peter McKay
CEO, Snyk

KI verändert die Rolle des Entwicklers grundlegend. Snyk CEO Peter McKay eröffnet das Event mit einer inspirierenden Keynote dazu, wie KI vom Design und Coding bis zur Wartung sämtliche Prozesse der Software-Entwicklung transformiert. Welche herausragenden Chancen sich dabei eröffnen, beleuchtet er dabei ebenso wie die kritischen Risiken, die es zu adressieren gilt, um die Potenziale sicher zu nutzen.

10:20 AM
Von neuen Paradigmen der Software-Entwicklung und ihrer Navigation – Kamingespräch

Guy Podjarny
Founder & CEO, Tessl

Danny Allan
Chief Technology Officer, Snyk

Ein großes Thema diskutiert im kleine Rahmen: Mit Blick auf die Zukunft der Software-Entwicklung beleuchten Guy Podjarny und Danny Allan, wie sich die Branche von codegesteuerten Methodiken in Richtung Spec-driven Development bewegt. Ebenso untersuchen sie die neu aufkommende Anforderung, Agent Experience und Developer Experience in Einklang zu bringen und wie sich dieser Paradigmenwechsel für Entwickler, Innovationsdynamik und Sicherheit auswirkt.

10:50 AM
Wandern im Wald, Sprechen statt Tippen: Die (künftige) neue Freiheit der Entwicklerzunft

Zach Proser
Developers Education – WorkOS

Daran, an den Bildschirm gefesselt zu sein, werden sich schon bald nur noch echte Senior Developer erinnern können. Denn KI-native Tools lassen die Grenzen, wo und wann Software entstehen kann, immer mehr verschwinden.

In dieser Keynote zeigt Zack Proser am Beispiel seines eigenen Workflows, wie sich der Wandel vollzieht: Den Morgen und Nachmittag beginnt er an seinem MacBook, auf dem Wispr Flow seine Spracheingaben mit 179 Wörtern pro Minute in Text umwandelt, den er im gleichen Zug an Cursor Agents zur Feature-Umsetzung weitergibt. 

Der Clou kommt jedoch zum Mittag, den er mit einem Waldspaziergang begeht. Mit dem Advanced Voice Mode von OpenAI auf seinem Smartphone bewegt er sich auf den Spuren der Lehre des Aristoteles: laut über Architektur nachdenkend und Features im Dialog abklärend, während gute Luft und Glücksgefühle seine Kreativität beflügeln und ein intelligenter Agent die Gedanken erfasst und in Kontext überführt.

Das Ergebnis ist ein Coding-Workflow, der zu einem erheblichen Teil abseits des Computerbildschirms geschieht und dabei dennoch sicher bleibt. Hierfür sorgen Agent-Sandboxes und CI/CD-Scans, die das Incident-Risiko in Grenzen halten, während Pull-Requests automatisch validiert und sogar Sprachanrufe dank Identitätsvalidierung authentifiziert werden. Zusätzlich anreichern lassen sich die KI-Systeme dabei anhand von persönlichem Kontext aus Geräten wie dem Oura Ring – vorausgesetzt, für diese Daten-Flows werden adäquate Kontrollmechanismen eingerichtet.

Mit Live-Beispielen und Aufnahmen des Spaziergangs gibt diese Keynote einen ersten Einblick, wie KI Entwickler schon bald von der Arbeitsplatzstatik ihres Desktops befreien wird. Nicht vergessen wird dabei ein Blick darauf, wie sich diese Freiheit mit Fragen der Sicherheit in Einklang bringen lassen wird.

11:35 AM
Sicherheit auf dem Weg ins Zeitalter künstlicher Intelligenz

Manoj Nair
Chief Innovation Officer, Snyk

Danny Allan
Chief Technology Officer, Snyk

Mit Danny Allan und Manoj Nair erhalten Sie von unseren Tech- und Innovation-Leadern Einblicke aus erster Hand, wie Snyk Sicherheit so agil macht wie KI-gestützte Entwicklung und zugleich für effizientere AppSec-Governance sorgt.

02:30 PM
Die Gesellschaft als Grenze – Keynote zum Abschluss


Im Laufe unserer Geschichte konnten sich Innnovationen immer dann durchsetzen, wenn sie unser Leben eindeutig verbessert haben. Hervorragende Beispiele dafür: Feuer, Elektrizität, Antibiotika oder das Internet. Heute sehen wir jedoch ein ganz andere Dynamik: So schnell, wie sich KI-Technologie entwickelt, ist die größte Hürde für den Fortschritt nicht mehr das, wozu Technologie imstande ist, sondern was die Gesellschaft zu akzeptieren bereit ist. In dieser provokanten Keynote wirft Zack Kass das Schlaglicht darauf, wie technologische Möglichkeiten und gesellschaftliche Bereitschaft zunehmend auseinanderdriften. Als ehemaliger OpenAI-Exec, der auch heute noch an der Speerspitze der Entwicklung künstlicher Intelligenz steht, erläutert Kass, warum das Tempo des Fortschritts künftig nicht von den Grenzen der Technologie bestimmt werden wird, sondern vom kulturellen, ethischen und institutionellen Widerstand. Mit dieser Erkenntnis lässt er Sie jedoch nicht zurück. Er führt auch ein effektives Framework ins Feld, das dabei hilft, Widerstand und Bedenken aufzulösen, Innovation aus neuer Perspektive zu betrachten und einen der bedeutendsten Momente in der Geschichte der Menschheit zu meistern.

12:10 PM
AI Security containerisiert: Mit Automatisierung zu skalierbarer Sicherheit


W. Ian Douglas
Staff Developer Advocate, Block

Wer sich auf Community-Mitwirkung stützt, steht unweigerlich vor der Frage, wie sich potenzieller Schadcode dabei aus der Codebase fernhalten lässt. Das Team von Block löste dies bei einem seiner Projekte für „Automatisierungsvorlagen“, indem es sein KI-System anwies, einen eigenen Security-Scanner zu entwickeln. Hierzu zog das Team eine containerisierte Security-Pipeline auf, in der Pull-Requests für GitHub anhand von Headless-KI-Analysen und Threat-Detection-Algorithmen komplett automatisiert in einer isolierten Umgebung gescannt werden. In dieser Session erfahren Sie, wie Sie ein ähnliches Konzept zur KI-gestützten Security-Automatisierung für Ihre CI/CD-Pipelines gestalten können. Bei Block wurde dadurch aus einem Bottleneck manueller Code-Reviews, das tagelangen Aufwand bedeutete, eine automatisierte Trust-Engine, die Code-Beiträge in Minuten verarbeitet.

12:25 PM
In die MCP-Falle gelockt: Deception Engineering für KI-Zugriff mit Zero Trust

Harshad Kadam
Sr. Infrastructure Security Engineer, Indeed Inc

Für Cyberdefense-Experten und Detection Engineers, aber auch für interessierte Red Teams bietet diese Session einen Ansatz, wie sich Zero Trust und Deception Engineering in Zeiten der KI-Orchestrierung miteinander verbinden lassen. Hierzu entwickelten Harshad Karam und sein Team mit „MCP Threat Trap“ einen Honeypot, der sensible interne Tools über das MCP-Protokoll simuliert – mit realistischen Verzögerungen, sicherer Fehlerbehandlung und SSE-Streams, die Unternehmens-APIs imitieren. Anhand im Verborgenen ausgelöster erweiterter Canarytokens erfasst er detaillierte Metadaten. Über Workers AI läuft er komplett auf dem Global Edge von Cloudflare, sodass er weder EC2 noch Patching oder das Management von Infrastruktur erfordert. Ebenso bleibt er getarnt, ist nahtlos skalierbar und verwandelt einfache Scans in verwertbare Insights. Möglich wird dies anhand von Daten-Feeds aus Zero-Trust-Policies, durch die Ihr Incident-Team Alerts mit umfassendem Kontext erhält.

12:40 PM
Dynamische Multi-Tenant-MCP-Server: Mit Streamable HTTP zu smartem Tool-Kontext

Bob Remeika
CEO, Ragie.ai

Das Model Context Protocol (MCP) stellt eine standardisierte Methodik für die Interaktion zwischen LLMs und externen Tools in Aussicht. In der Praxis erweist sich dies jedoch häufig als reichlich schwergängig. Denn allgemeine Tool-Beschreibungen lassen die Modelle im Dunkeln, womit sie überhaupt interagieren sollen. Es bleibt also nichts anderes, als das Routing manuell oder über wenig verlässliche Regeln in MCP-Clients wie Claude Desktop, Cursor oder die Implementierung von OpenAI zu steuern. Daran setzte das Team von Ragie mit einem streamfähigen Multi-Tenant-MCP-Server an, der präzisen Tool-Kontext liefert, indem zugehörige Spezifikationen anhand von Tenant-spezifischen Daten dynamisch weitergegeben werden.

In diesem Talk zeigt Bob Remeika auf, wie das Team die technischen Herausforderungen auf dem Weg zur Umsetzung anging:

Wie es FastMCP Python SDK um einen dynamischen Layer erweiterte, um Tool-Beschreibungen für jeden Tenant direkt zum Anfragezeitpunkt zu generieren.

Wie es das Antwort-Handling mithilfe von Streamable HTTP für Hunderte Tenants effizient und skalierbar gestaltete.

Kritische Fallstricke, die bei der Partitionierung, der Verarbeitung von Anfragekontext und dabei aufkamen, Kompatibilität mit bestehenden MCP-Clients zu gewährleisten.

Wie kontextbezogene Beschreibungen Unklarheiten beim Tool-Routing beseitigen und so für nahtlose und zielsichere Interaktionen sorgen.

All dies vermittelt Ihnen präzise, wie Sie dynamische Tools auch in Ihrem eigenen MCP-Server implementieren können – umgesetzt in einer Multi-Tenant SaaS-Umgebung und komplett im Einklang mit dem offiziellen Protokoll. Mit diesem technischen Deep-Dive sind Sie bestens aufgestellt, um eine Infrastruktur zu gestalten, die die Tool-Nutzung mit MCP organisch macht.

01:05 PM
MCP-Server für mehrere Benutzer mit Arcade (und ohne Kopfschmerzen)

Nate Barbettini
Founding Engineer, Arcade.dev

Server auf Basis des Multi Context Protocol bieten enormes Potenzial, LLMs für neue Use Cases zu nutzen. Was aber, wenn das Ganze auf mehr als das eigene System ausgeweitet werden soll? Verfügbaren MCP-Demos haftet hierbei allen der Makel äußerst komplexer Fragen der Sicherheit und Autorisierung an. Wie Nate Barbettini jedoch in diesem Talk aufzeigt, lässt sich mit der neuesten Weiterentwicklung der MCP-Spezifikation eine differenzierte Autorisierung für mehrere Nutzer umsetzen. Und wie er betont, gestaltet sich dies weitaus weniger kompliziert als man vielleicht vermuten würde. Auf dem Weg dorthin gibt er Ihnen außerdem auch Best Practices zur Absicherung von MCP-Produktionsservern an die Hand.

01:25 PM
Bereit machen für den Vormarsch der KI-Agents

John McBride
Staff Engineer, Zuplo

KI-Agents bilden die Userbase, die 2025 das schnellste Wachstum verzeichnet. Sie interagieren autonom mit Ihrem System, um Daten abzurufen und Operationen auszuführen. Für einige Unternehmen stellt dies eine Bedrohung dar, die es zu kontrollieren gilt. Anderen bietet es dagegen die Chance, ihren Kunden innovative Möglichkeiten zur Interaktion mit ihren Systemen zu eröffnen.

Unerlässlich ist jedoch in jedem Fall, dass Sie dabei die Leitschienen vorgeben. Dies erfolgt über APIs. Sie bestimmen die Ressourcen, auf die die KI Zugriff hat, wie sie diese Daten abrufen kann und wofür sie sie nutzen darf. Entscheidend ist daher, dass Ihre APIs und zugehörigen Steuerungen für Ihre Agents verständlich sind und ihnen ausreichend Features zur Ausführung ihrer Aufgaben zur Verfügung stellen. Legen Sie dabei den richtigen Grundstein, lässt sich automatisierter KI-Traffic nahtlos und in großem Umfang bewältigen.

12:10 PM
Gehackt: 7 der 16 öffentlich verfügbaren YC X25 KI-Agenten


Rene Brandel
Mitgründer & CEO, Casco (YC X25)

Dem Team von Rene Brandel gelang ein Hack von 7 der 16 öffentlich verfügbaren YC X25 KI-Agenten. So konnte es User-Daten ausschleusen, Code remote ausführen und Datenbanken kapern – bei jeweils gerade einmal 30 Minuten Zeitaufwand. In dieser Session erfahren Sie, wie sich das Team klassische Fehler zunutze machte, die den entsprechenden Unternehmen unterliefen, und wie Sie diese Sicherheitslücken schließen, bevor Ihre Agents zum Risiko für Ihr Geschäft werden.

12:35 PM
Red Team vs AI: Stresstest für LLM-integrierte Apps nach Angreifer-Manier

Nnenna Ndukwe
Principal Developer Advocate, Qodo AI

Dass Ihre LLM-App in Produktion funktioniert, ist das eine. Nicht weniger wichtig ist aber, dass Sie ihr Verhalten in einer Angriffssituation verstehen. In diesem Talk dreht sich alles um Penetrationstests für GenAI-Systeme – von böswilligen Prompts über Tests des Modellverhaltens und Jailbreaks bis hin zur Nachbildung neuartiger Tarnungsmethoden, denen sich die Angreifer von heute bedienen. Sie erfahren, wie Sie ein KI-spezifisches Playbook für Penetrationstests gestalten, Missbrauchszenarien simulieren und Red-Team-Strategien in Ihr SDLC integrieren. Vorhersehbar ist LLM-Verhalten zwar nicht, aber es lässt sich systematisch evaluieren. In diesem Kontext wird untersucht, wie KI-Apps testfähig, replizierbar und von Grund auf sicher gestaltet werden können.

01:00 PM
KI-Identitäten und kein Ende: Absicherung agentischer und nichtmenschlicher Identitäten

Aamiruddin Syed
Supply Chain Software Security, AGCO Corp.

KI-Systeme entwickeln sich mit rasanter Geschwindigkeit von statischen Modellen zu ganzen Schwärmen autonomer Agenten mit eigener Identität sowie eigenen Entscheidungen und Zugriffsrechten. Klassische Systeme für Identity & Access Management (IAM), die auf menschliche User und statische Servicekonten ausgelegt sind, können damit nicht Schritt halten. In diesem Talk wird untersucht, wie agentische KI die Identitätslandschaft verändert. Identifiziert werden dabei insbesondere auch die Punkte, an denen die Identität sämtlicher Agents verifizierbar, auditierbar und widerrufbar sein muss. Ausgehend von den OWASP Top 10 der nicht-menschlichen Identitätsrisiken und dem IAM-Framework für agentische KI von CSA werden neue Trust-Modelle, konkrete Angriffsvektoren und direkt umsetzbare Strategien beleuchtet, anhand derer Zurechenbarkeit und Sicherheit für autonome Systeme gewährleistet werden kann.

01:20 PM
STOIC Security: Absicherung von GenAI-Apps gegen 5 kritische Risiken

Jeff Watkins
Chief Technology Officer, CreateFuture

Die Möglichkeiten generativer KI sind zweifelsohne fantastisch. Erheblich sind aber auch die Cybersecurity-Herausforderungen, die mit ihr einhergehen. So steigen mit ihrer zunehmenden Nutzung auch die Risiken – von Datendiebstahl über die Manipulation von Modellen und Trainingsdaten bis hin zu Betriebsstörungen und Schwachstellen in der Lieferkette. In diesem Talk lernen Sie mit STOIC (Stolen, Tricked, Obstructed, Infected, Compromised) ein Framework kennen, das Ihnen dabei hilft, Bedrohungen dieser Art zu erkennen und zu mitigieren.  Sie gewinnen damit nicht nur ein besseres Verständnis Ihrer GenAI-bezogenen Risiken, sondern erhalten auch wertvolle Insights zur Härtung Ihrer Systeme, zur Absicherung Ihrer Lieferkette und dazu, wie sie für klare Governance sorgen und dabei agil bleiben.  Generative KI ist transformativ, wird ohne proaktive, mehrschichtige Abwehrmaßnahmen aber leicht zum Gefahrenherd. Mit der passenden Strategie sind Sie jedoch bestens aufgestellt, um sie sicher zu einem Gamechanger für Ihr Unternehmen zu machen.

01:55 PM
Agents und MCP-Server: Sind unsere elektrischen Schafe sicher?

Brett Smith
Distinguished Software Engineer, SAS

Kann der MCP-Server dazu beitragen, „elektrische Schafe“ vor betrügerischen Agents und böswilligen Akteuren zu schützen, oder ist er vielmehr sogar ein weiteres Einfallstor? Mit Fokus auf potenzielle Schwachstellen und Strategien für ihre Mitigierung nimmt dieser Talk die neue Angriffsfläche in den Blick, die durch MCP-Server und KI-Agents entsteht. Dabei wird diskutiert, wie agentische KI das SDLC einerseits bereichern kann, andererseits aber auch neue Sicherheitsrisiken mit sich bringt. Sie erfahren, welche Rolle MCP-Servern beim Management dieser Risiken zukommt und mit welchen Strategien Sie sie vor potenziellen Angriffen schützen können. Beantwortet werden dabei die folgenden Fragen:

  • Wie ist agentische KI konkret im SDLC einsetzbar? 

  • Welche Sicherheitsrisiken bringt agentische KI in das SDLC? 

  • Wie können MCP-Server zur Sicherheit in der Lieferkette beitragen? 

  • Worin liegen die Risiken von MCP-Servern?

  • Mit welchen Strategien lassen sich Angriffe auf MCP-Server mitigieren?

12:10 PM
Shift Left auf einem neuen Level: Nahtlose Developer Security im Zeitalter der KI

Jeff Andersen
Sr. Director Product Management, Snyk

Brendan Hann
Sr. Product Marketing Manager, Snyk

Das Mandat des Shift Left ist heute gewichtiger als je zuvor. Erfahren Sie in dieser Session, wie Snyk dem durch Features Rechnung trägt, die kompromisslose Sicherheit mit schnellen Releases verbinden, ohne Dev-Workflows auszubremsen.

12:20 PM
AppSec weiter gedacht: Vom Task-Management zu strategischer Governance und Prävention

Itay Maor
Sr. Manager Product Management, Snyk

Kate Powers
Sr. Product Marketing Manager, Snyk

Auf dem Weg ins KI-Zeitalter gilt es für AppSec-Teams, ihre Rolle neu zu definieren. Genau das macht die Snyk AI Trust Plattform durch umfassende Visibility und Kontrolle möglich. In dieser Session erfahren Sie, wie AppSec-Teams damit von einfachen Task-Managern zu echten Security-Strategen werden.

12:55 PM
Die Lösung für das Problem endloser Priorisierung: Automatische Behebung auf Trust-Basis

Ryan McMorrow
Staff Product Manager, Snyk

Brendan Hann
Sr. Product Marketing Manager, Snyk

In diesem Talk beleuchten wir Strategien zur Behebung von Open-Source- und Container-Problemen. Dabei zeigen wir auf, wie ein Breakability Score und Trust-Framework dabei hilft, die Behebung von Open-Source-Problemen mit geringem Ausfallrisiko zu automatisieren.

01:10 PM
Secure at Inception: Die Antwort von Snyk auf die KI-Code-Revolution

Ezra Tanzer
Director Product Management, Snyk

Daniel Berman
Product Marketing Director, Snyk

Brendan Putek
Director of DevOps, Relay Network

AppSec nach klassischer Methodik lahmt, wenn es an die Priorisierung und Behebung geht. In dieser Session erfahren Sie, wie Snyk Entwicklern zu sicherem Fixing ohne Sorge um unerwünschte Änderungen verhilft.

01:30 PM
Keine agentischen Apps ohne agentische Security-Lösungen


Rudy Lai
Director Technology Incubation, Snyk

Zur Absicherung der nächsten Generation künstlicher Intelligenz bedarf es eines neuen Security-Paradigmas. Je ausgedehnter KI-Agents und KI-native Anwendungen genutzt werden, desto größer wird die Angriffsfläche. Damit einher gehen neue Risiken, die von Prompt-Injection und toxischen Flows bis hin zur Unvorhersehbarkeit nicht deterministischen Verhaltens reichen. Regelbasierte Security-Tools, die für Determinismus und Parametrisierung entwickelt wurden, können dem nicht mehr gerecht werden. Um die Innovationen KI-gestützter Anwendungen sicher nutzen zu können, ist eine neue Generation von Security-Teams gefragt: AI Security Engineers, ausgestattet mit eigenen agentenbasierten Systemen zur Security-Orchestrierung. In dieser Session gehen wir darauf ein, welche Kernaufgaben diese Systeme abdecken müssen, und untersuchen, wie Orchestrierung dabei helfen kann, komplexe Bedrohungen für KI-native Anwendungen zu erkennen, nachzuvollziehen und zu mitigieren.

Vorhang auf für die AI Security Developers Challenge

Ein weiteres Novum der DevSecCon25 ist unsere erste AI Security Developers Challenge.
Worum es dabei geht? Schnelle Entwicklung, kreative Problemlösung und die Chance, mit brillanten Köpfen aus aller Welt zusammenzuarbeiten. Mehr wollen wir an dieser Stelle noch nicht verraten. Ein Highlight wird es aber definitiv geben, daher sollten Sie sich am besten direkt hier registrieren, um auf dem Laufenden zu bleiben und sich Ihren Platz zu sichern.

Unser Lineup: Ein Grund mehr zum Dabeisein!

Noch nicht registriert? Unser diesjähriges Speaker-Aufgebot wird das sicher ändern. Mit dabei sind Thought Leader der Branche ebenso wie Experten aus der Dev-Praxis, die inspirieren, neue Wege aufzeigen und Sie hier und da womöglich auch zum Lachen bringen werden. Am besten lernt man von den Besten, daher registrieren Sie sich am besten noch heute.

Stone Werner

Software Engineer, Ragie.ai

Stone Werner

Zack Kass

Global AI Advisor and Former Head of Go-To-Market, OpenAI

Zack Kass

Zack Proser

Developers Education, WorkOS

Zack Proser

Nnenna Ndukwe

Principal Developer Advocate, Qodo

Nnenna Ndukwe

Guy Podjarny

Founder and CEO, Tessl

Guy Podjarny

John McBride

Staff Engineer, Zuplo

John McBride

Nate Barbettini

Founding Engineer, Arcade.dev

Nate Barbettini

W. Ian Douglas

Staff Developer Advocate, Block

W. Ian Douglas

Rene Brandel

Cofounder & CEO, Casco (YC X25)

Rene Brandel

Brett Smith

Distinguished Software Engineer, SAS

Brett Smith

Jeff Watkins

Chief Technology Officer, CreateFuture

Jeff Watkins

Harshad Sadashiv Kadam

Senior Infrastructure Security Engineer, Indeed Inc

Harshad Sadashiv Kadam

Peter McKay

CEO, Snyk

Peter McKay

Manoj Nair

Chief Innovation Officer, Snyk

Manoj Nair

Danny Allan

Chief Technology Officer, Snyk

Danny Allan

Aamiruddin Syed

Supply Chain Software Security, AGCO Corporation

Aamiruddin Syed

Brendan Putek

Director of DevOps, Relay Network

Brendan Putek

Jeff Andersen

Senior Director, Product Management, Snyk

Jeff Andersen

Brendan Hann

Senior Product Marketing Manager, Snyk

Brendan Hann

Itay Maor

Senior Manager, Product, Snyk

Itay Maor

Kate Powers

Senior Product Marketing Manager, Snyk

Kate Powers

Ryan McMorrow

Staff Product Manager, Snyk

Ryan McMorrow

Ezra Tanzer

Director, Product Management, Snyk

Ezra Tanzer

Daniel Berman

Product Marketing Director, Snyk

Daniel Berman

Rudy Lai

Director, Technology Incubation • Emerging Technologies & Solutions, Snyk

Rudy Lai

Jetzt registrieren!

Registrieren Sie sich noch heute für dieses Top-Event, bei dem wir AI Trust in all seinen Facetten ausleuchten und Ihnen Strategien und Best Practices vermitteln, mit denen Sie Ihren Weg ins KI-native Zeitalter sicher gestalten.

Highlights der DevSecCon 24

Spannende Insights und nicht weniger interessante Sessions von Branchen-Leadern hatten wir auch im Vorjahr für Sie parat. Alle Highlights der DevSecCon 2024 können Sie sich hier ansehen – perfekt zur Einstimmung auf das diesjährige Event, zu dem Sie in unserer Community weitere Insights erhalten.